I due sensi che rivestono maggiore importanza nella nostra vita
sono senza dubbio la vista e l'udito. Entrambi agiscono a grande
distanza e ci permettono di raccogliere informazioni da lontano.
Anche se comunemente si ritiene la vista il senso più importante
(e la cecità una afflizione più grave della sordità),
l'udito presenta alcuni importanti vantaggi su quest'ultima. In
primo luogo, le onde sonore hanno la proprietà di oltrepassare
oggetti di modeste dimensioni, mentre la luce viaggia unicamente
in linea retta. Questo significa che, mentre possiamo vedere qualcosa
solo guardandola direttamente, udiamo un suono indipendentemente
dalla nostra posizione rispetto alla sorgente che lo ha generato.
Chiunque sia in guardia in prossimità di un pericolo può,
di conseguenza, basarsi con maggiore sicurezza sull'udito che
non sulla vista. Questo comportamento è molto diffuso negli
animali, nei quali il senso dell'udito è più sviluppato.
Ognuno di noi ha, infatti, avuto occasione di osservare un cane
che drizza le orecchie quando deve rendersi conto meglio di cosa
accade attorno a lui. In secondo luogo, contrariamente alla vista
che permette di ricevere informazioni solo in presenza di luce,
l'udito è sempre attivo. Questo è un grande vantaggio
soprattutto se si deve operare in ambienti poco illuminati, come
il fondo di una foresta o l'interno di una grotta. Gli animali
che vivono nell'oscurità possiedono infatti solo occhi
rudimentali. Nell'oceano, inoltre, al di sotto di un sottile strato
vicino alla superficie, la luce del sole non penetra, rendendo
completamente inutile la vista. L'udito, al contrario, funziona
in ambienti luminosi come in assenza di luce, di giorno come di
notte, nelle profondità dell'oceano come in superficie.
Infine, cosa veramente importante, il senso dell'udito permette
di interagire con le altre specie viventi. Tranne poche eccezioni
(alcuni insetti e alcuni pesci) l'uomo e gli animali non possono
produrre luce naturalmente. Al contrario, quasi tutti gli appartenenti
al regno animale, anche i più semplici, possono emettere
suoni, e quindi comunicare con gli altri esseri viventi.
In generale, maggiore è la complessità di un essere,
più estesa è la gamma di suoni che è in grado
di emettere. Ovviamente non tutte le comunicazioni avvengono tramite
suono: la danza dell'api che avvisa l'alveare di aver trovato
una nuova fonte di cibo, le lotte rituali tra i giovani leoni
sono solo alcuni esempi. Questi modi di comunicare non possono
tuttavia essere paragonati all'utilizzo del suono: per quanto
semplici e primitivi, ruggiti, lamenti e cinguettii permettono
una maggiore capacità espressiva.
L'uso della voce per comunicare differenzia notevolmente l'uomo
dalle altre specie animali. Sebbene molte specie presentino capacità
sensoriali molto più elevate nella ricezione del suono,
l'uomo è la specie vivente che meglio di tutte riesce ad
usare il suono per comunicare. Fra la specie umana e tutte le
altre (ad esclusione dei delfini), esiste un vero e proprio abisso:
solo l'uomo infatti riesce ad articolare suoni talmente complessi,
variati, precisi e riproducibili da essere utilizzati come mezzo
di comunicazione di idee astratte.
La produzione dei suoni
Le onde sonore sono create da vibrazioni meccaniche, e sono costituite
da spostamenti periodici di atomi e molecole. Per comprenderne
la generazione immaginiamo il braccio di un diapason che si muove
rapidamente da destra a sinistra. Quando oscilla verso sinistra,
spinge in quella direzione le molecole d'aria. L'elasticità
dell'aria costringe le molecole a muoversi, creando una zona di
alta pressione che si allontana dal braccio del diapason. Mentre
l'onda di alta pressione si allontana, il braccio inverte la sua
oscillazione muovendosi verso destra e creando sul lato sinistro
una zona nella quale le molecole d'aria possono dilatarsi, determinando
così un'area di bassa pressione. Il risultato di questo
movimento alternato è la creazione di una successione di
aree di alta e di bassa pressione che si susseguono con regolarità.
È importante osservare che non è l'aria che si muove
(le molecole d'aria oscillano solamente attorno alla loro posizione
originaria), ma è la zona di alta e di bassa pressione
che si propaga, formando quelle che, per analogia con il moto
dell'acqua di mare, vengono chiamate onde sonore. La velocità
alla quale le onde viaggiano, la velocità del suono, dipende
dall'elasticità del mezzo attraverso cui esse si propagano,
ovvero dal tempo impiegato da ogni molecola per tornare al proprio
posto. Nell'aria a 20°C tale velocità è di
circa 340 metri al secondo, pari a circa 1.250 chilometri orari.
In altri mezzi più elastici (cioè nei quali gli
atomi e le molecole tornano al loro posto più velocemente
dopo essere stati perturbati), come l'acciaio o l'acqua, la velocità
di propagazione è più alta. Questa caratteristica,
nota fin dall'antichità, veniva usata dai soldati che,
poggiando le orecchie sul terreno, potevano ascoltare il rumore
degli eserciti nemici con grande anticipo. Al contrario, nel vuoto,
dove non ci sono atomi o molecole che si possono spostare, il
suono non può essere trasmesso.
La ricezione dei suoni
Il senso dell'udito dipende dalla conversione delle onde sonore
in impulsi nervosi. In pratica, non è altro che lo sviluppo
e il raffinamento del senso di pressione. Le onde sonore infatti
esercitano una sollecitazione su tutto ciò che incontrano.
La semplice pressione però è troppo debole per poter
essere avvertita. È infatti la sua ripetizione periodica,
il suo battere costante che attiva l'impulso nervoso. I pesci,
ad esempio, sentono per mezzo di fibre sensoriali, capaci di individuare
questo tipo di sollecitazione, disposte in fila lungo la parte
media di ciascun lato e perciò chiamate linee laterali.
Quando la vita cominciò a svilupparsi sulla terraferma
si crearono però nuovi problemi per l'udito: l'aria infatti
è più rarefatta dell'acqua e, quindi, i rapidi movimenti
periodici della pressione che rappresentano le onde sonore sono
molto più deboli.
Allo scopo di rendere udibili anche i deboli suoni che si propagano
nell'aria, mediante il meccanismo dell'evoluzione la natura modificò
allora la struttura di alcune branchie, che non erano più
necessarie. Così la prima di esse divenne un sottile diaframma,
che poteva essere messo in vibrazione molto facilmente anche dalle
deboli variazioni di pressione dei suoni nell'aria, mentre la
seconda si trasformò invece in un piccolo osso posizionato
fra il diaframma e il ricettore del suono dove agisce tuttora
come amplificatore. Con l'evoluzione i mammiferi affinarono ulteriormente
l'udito: grazie infatti alla particolare forma della loro mascella
essi sono in grado di concentrare e amplificare meglio il suono.
È bene fare una piccola precisazione. Quello che comunemente
chiamiamo orecchio è in realtà solo il padiglione
auricolare, la sua parte più esterna, la meno importante
del sistema di strutture che ci permette di sentire. Il suo compito
è quello di raccogliere il fronte dell'onda sonora su una
superficie molto vasta e di condurlo all'interno, dove si trovano
i ricettori del suono. In questo modo il suono viene progressivamente
amplificato man mano che il passaggio si restringe, analogamente
alla marea che diventa più alta quando si entra in una
baia più stretta. Con l'uso del padiglione, che in molti
animali ha anche la capacità di muoversi in modo da dirigersi
verso la fonte sonora, l'organo dei mammiferi diviene ancora più
sensibile. Con tutti questi accorgimenti i mammiferi hanno quindi
il senso uditivo più sviluppato di tutto il regno animale.
Nell'uomo, e nei primati in generale, si verifica però
una regressione di questa capacità.
I caratteri del suono
L'orecchio percepisce una grande varietà di suoni, alcuni
squillanti, altri deboli, altri acuti, altri ancora gravi. Tutte
queste differenti qualità acustiche dei suoni possono essere
classificate in base a tre caratteristiche: l'intensità,
l'altezza e il timbro. Esse corrispondono alle diverse caratteristiche
fisiche del complesso di vibrazioni, di cui consiste il suono:
lunghezza d'onda, ampiezza dell'oscillazione, frequenza e velocità
di propagazione. L'intensità di un suono (suono forte o
debole) è proporzionale all'ampiezza della vibrazione,
mentre la sua altezza (grave come il suono di un tamburo o acuto
come quello di una sirena) è proporzionale alla frequenza
di vibrazione della sorgente sonora. Ad esempio, la voce di una
donna è più acuta rispetto a quella maschile proprio
a causa della maggiore frequenza con cui vibrano le sue corde
vocali.
Un suono semplice, come quello emesso da un diapason, viene espresso
graficamente da una sola onda. Un suono composto è dato
invece dalla sovrapposizione di più onde, una fondamentale
e le altre chiamate armoniche. È questa la caratteristica
del suono prodotto dagli strumenti musicali e in genere da tutti
i suoni naturali. La diversa distribuzione delle armoniche rispetto
al suono fondamentale contraddistingue il timbro. Il timbro è
dunque quel carattere che consente di distinguere due suoni di
eguale intensità e uguale altezza, ma prodotti da sorgenti
sonore diverse.
Infrasuoni e ultrasuoni
Come abbiamo visto, la frequenza di un'onda sonora è il
numero di oscillazioni che le particelle d'aria compiono in un
secondo. Il nostro orecchio percepisce come gravi i suoni di frequenza
più bassa e come acuti quelli di frequenza più alta.
Se però la frequenza di vibrazione dell'aria è troppo
lenta (inferiore alle 20 oscillazioni al secondo o, più
precisamente, inferiore ai 20 Hz) o troppo elevata (superiore
a 20.000 Hz) il nostro orecchio non è in grado di recepire
alcun suono. Nella terminologia tecnica si chiamano infrasuoni
le onde sonore di frequenza minore di 20 Hz e ultrasuoni quelle
di frequenza superiore a 20.000 Hz. Alcuni animali, dotati di
un udito migliore del nostro, riescono a percepire anche queste
onde. Il pipistrello, ad esempio, avverte ultrasuoni fino a frequenza
di 120.000 Hz.
La riproduzione del suono
La generazione e la riproduzione del suono sono processi continui.
Per questo motivo le tecniche "classiche" di riproduzione
del suono, dal primo celebre fonografo di Edison ai moderni registratori
a cassette, hanno utilizzato dispositivi analogici, cioè
che funzionano simulando una analogia con il fenomeno originale.
In pratica (e semplificando), un registratore analogico memorizza
il suono per mezzo di un segnale elettrico proporzionale alle
caratteristiche del segnale di partenza. Riproduce, cioè,
le vibrazioni meccaniche dell'aria sotto forma di una tensione
che impressiona in modo continuo il supporto su cui viene raccolto
(ad esempio un nastro magnetico).
Un computer è invece un dispositivo digitale, cioè
un apparecchio che lavora in modo discreto aprendo o chiudendo
una serie di interruttori elettronici. Uno 0 rappresenta un interruttore
aperto (spento), mentre un 1 rappresenta un interruttore chiuso
(acceso) mentre un byte rappresenta una sequenza di otto valori
che descrivono lo stato dei corrispondenti interruttori. Analogamente
alle immagini digitali, che sono costituite da una matrice di
pixel a ciascuno dei quali viene assegnato un colore, anche un
suono in formato digitale è rappresentato da un valore
numerico. Questo chiarisce la definizione di suono digitale, cioè
suono rappresentato mediante numeri: digit, infatti, in inglese
significa numero e a sua volta deriva dal latino digitus, cioè
dito, il primo strumento usato dall'uomo per contare. Anche se
molti suoni vengono generati direttamente in formato digitale
dagli strumenti elettronici, la riproduzione digitale del suono
prevede ancora in molti casi la conversione del segnale audio
da analogico a digitale. In questo caso il dispositivo audio di
un computer riceve il suono come segnale analogico continuo, cioè
un'onda sonora con frequenza e intensità variabili nel
tempo. I segnali vanno ad un convertitore analogico/digitale che
trasforma i segnali analogici in dati digitali (sequenze di 1
e 0).
Il suono e i numeri
Per trasformare un segnale continuo in un insieme di numeri si
usa una tecnica chiamata campionalento. Il suo funzionamento è
intuitivo: si suddivide un intervallo di tempo in una serie di
intervalli più piccoli e si misura l'intensità del
segnale in ognuno di essi. A questo punto, il valore ottenuto
viene trasformato in un numero binario che può essere così
elaborato e memorizzato in forma digitale. Come si può
facilmente immaginare, minore è l'ampiezza dell'intervallo
(o, in termini tecnici, maggiore è la frequenza di campionamento)
più elevata è la qualità del suono. Ad esempio,
i compact disc musicali utilizzano una frequenza di campionamento
di 44.100 Hz, cioè dividono un secondo in 44.100 intervallini.
La riproduzione digitale del suono presenta notevoli vantaggi
rispetto a quella tradizionale, analogica. Innanzi tutto può
essere elaborata da appositi processori audio per realizzare effetti
sonori complessi come il suono tridimensionale. In secondo luogo
può essere memorizzata su dispositivi ad accesso casuale,
come i compact disc.
Il suono diventa spaziale
Dalla sua introduzione intorno alla metà degli anni '50,
la stereofonia ha stabilito lo standard nella riproduzione audio.
Essa è in grado di riprodurre uno scenario tradizionale,
in cui il suono proviene principalmente da una direzione frontale
rispetto all'ascoltatore, come in un concerto. Per quanto buona
sia la registrazione, la stereofonia non può però
ricreare adeguatamente un ambiente acustico in cui il suono proviene
da più fonti poste attorno all'ascoltatore. La mancanza
di spazialità impoverisce il realismo, come nel caso di
un gioco in cui un velivolo sorvoli la testa del protagonista
dirigendosi alle sue spalle, oppure quando creature mostruose
si muovono contro il giocatore da ogni lato. Per generare campi
sonori più ampi e coinvolgenti, molte società hanno
allora ideato algoritmi che modificano il suono stereofonico in
modo che, anche con due sole casse acustiche, i suoni sembrino
provenire da tutte le direzioni. Gli algoritmi di espansione stereofonica
ampliano la scena sonora percepita e molte schede audio e sistemi
di altoparlanti includono l'elettronica necessaria per generare
un suono stereofonico espanso. Gli algoritmi di posizionamento
3D compiono un ulteriore passo in avanti: cercano di collocare
i suoni in particolari posizioni attorno all'ascoltatore - a sinistra
o a destra, sopra o sotto - in modo congruente a quanto avviene
sullo schermo. Elementi di psicoacustica, quali i ritardi temporali
e le differenze d'intensità, sono utilizzati per replicare
il modo in cui le fonti suonerebbero se fossero effettivamente
ascoltate in uno spazio di 360 gradi. Questo processo utilizza
spesso la funzione hrtf (Head-Related Transfer Function) per calcolare
il suono percepito dalle orecchie dell'ascoltatore in base alle
coordinate spaziali della sua origine. Per esempio, un suono proveniente
da sinistra viene percepito una frazione di secondo prima dall'orecchio
sinistro, mentre l'orecchio destro lo sente con un'altezza leggermente
diversa a causa delle modalità di propagazione delle onde
sonore attorno alla testa. Gli sviluppatori di software possono
utilizzare le tecniche di ritardo e di cambiamento di fase per
riprodurre quest'effetto e collocare il suono in un preciso punto
nello spazio (come se qualcuno fosse alle vostre spalle) oppure
in movimento nello spazio (come nel passaggio di un razzo). I
risultati sono differenti ma generalmente buoni se l'ascoltatore
è seduto nel punto più appropriato tra i diffusori.
In ogni caso, per molte applicazioni la sintesi surround rappresenta
un notevole miglioramento rispetto alla stereofonia.
All'interno del suono
In molte case, gli impianti stereofonici stanno per essere gradualmente
rimpiazzati dai sistemi di home-theater, nei quali sono normalmente
richiesti sei diffusori. Traendo ispirazione dai cinematografi,
l'home-theater impiega infatti 5 + 1 canali di riproduzione, in
cui ci sono cinque diffusori principali (i canali frontali sinistro,
centrale e destro; i canali posteriori sinistro e destro) e un
canale speciale per le basse frequenze (il sub-woofer). Due tecnologie
in competizione, Dolby Digital e Digital Theater Surround, adottano
un processo di elaborazione del suono basato su questa tecnica.
Entrambi i sistemi rappresentano un'evoluzione rispetto ai vecchi
sistemi surround come il Dolby Pro Logic, in cui mancava la separazione
dei canali e i canali posteriori erano monoaurali. Il Dolby Digital
ha acquisito una forza travolgente quando è stato scelto
come metodo di codifica audio per il dvd e per la tv digitale;
il supporto al sistema dts è invece meno diffuso. Quando
le unità dvd prenderanno il posto dei lettori di cd-rom,
gli utenti di Pc potranno riprodurre le tracce audio su 5 + 1
canali non solo nei film ma anche nei giochi. Anche se questo
tipo di riproduzione migliora il realismo, presenta il problema
pratico di disporre sei diffusori acustici attorno al personal
computer. Per questo motivo, come abbiamo visto, un certo numero
di aziende operanti nel settore audio surround ha sviluppato algoritmi
specifici per riprodurre formati musicali 3D mediante due sole
casse acustiche, creando altoparlanti "virtuali" che
generano la corretta sensazione di spazialità.
Anche se nessuno di questi metodi può essere paragonato
a un sistema basato su cinque diffusori acustici, tuttavia gli
"altoparlanti virtuali" producono un buon risultato
di localizzazione sonora attorno all'ascoltatore.
Conclusioni
L'uomo ha sempre usato i suoni per comunicare, ma mai come ora
ha avuto la possibilità di esplorare le infinite possibilità
artistiche che le tecnologie digitali hanno messo a sua disposizione.
Dai primi tamburi ai moderni processori audio tridimensionali,
gli strumenti a sua disposizione si sono evoluti enormemente.
Anche se nessuno di essi potrà mai sostiutuire il genio
e la creatività del compositore.
|